Chúng ta làm việc “với” thuật toán, không phải làm việc “cho” thuật toán.
Không thể phủ nhận rằng “dữ liệu lớn" (big data) và trí tuệ nhân tạo (Artificial Intelligence - AI) đã cải thiện đáng kể hiệu quả và năng suất làm việc. Tuy nhiên, mô hình toán học được sử dụng trong các bối cảnh khác nhau mà không có sự giám sát và định hướng đúng đắn có thể dẫn đến nhiều vấn đề nghiêm trọng hơn chúng ta nghĩ.
Có vô số chuyện “kinh dị" về việc sử dụng thuật toán ở nơi làm việc, và nhiều câu chuyện nghe khá hợp lý. Từ tuyển dụng đến sa thải, thuật toán quyết định ứng viên nào lọt vào vòng phỏng vấn và tiếp tục được tuyển dụng. Thuật toán cũng trở thành công cụ để xác định tốc độ, phong cách làm việc và cho biết năng suất làm việc của người đó có đạt yêu cầu hay không. Trong một số trường hợp, thuật toán thậm chí còn nắm trong tay “quyền sinh quyền sát” ai sẽ là người bị đuổi việc. Mức độ can thiệp của máy móc vào việc ra quyết định vẫn là một ẩn số, dù đúng hay sai, nó cũng đang dần trở nên quen thuộc.
Tuy nhiên, vẫn còn rất nhiều việc phải làm để đảm bảo không xảy ra thiên vị nếu đưa thuật toán vào tất cả hình thức ra quyết định của người quản lý. Trên thực tế, việc đảm bảo này là không hề dễ dàng khi “adding a touch of AI" (thêm tính năng trí tuệ nhân tạo) đã trở thành cụm từ chuyên để “sale” và vô hình trung, thuật toán đã trở thành món hàng được sản xuất đại trà. Những giải pháp có sẵn như vậy thường thiếu các vòng phản hồi cần thiết để hạn chế những thuật toán tiêu cực và không công bằng trong việc đưa ra quyết định.
Có thể ví dụ dưới đây sẽ khiến bạn cảm thấy khá lỗi thời, nhưng đó là lời cảnh báo sớm cho việc “phó mặc” quyết định cho thuật toán. Vào những năm 1980, trường St George’s Medical Hospital ở London muốn lọc lại danh sách những người xin việc do số lượng nộp đơn quá đông. Trí tuệ nhân tạo ngay lập tức được tối ưu hoá: tìm kiếm những ứng viên tương tự như những người được thuê trước đây. Tuy nhiên, nhận dạng của AI lại cho ra kết quả áp đảo về số đàn ông da trắng. Một vài năm sau chuyện này, Ủy ban về Bình đẳng chủng tộc của chính phủ Anh đã cáo buộc trường y này phạm tội phân biệt chủng tộc và phân biệt giới tính.
Do đó, việc ra quyết định tự động hoàn toàn có thể dẫn đến sai lầm. Đáng buồn là bất chấp lo ngại này, những lời cảnh báo mạnh mẽ về việc máy móc kiểm soát quá mức đang nhanh chóng trở thành hiện thực.
Trong cuốn sách “Broadcast” (2017), tác giả Liam Brown đã đề cập đến một thế giới mà tất cả chúng ta đều sử dụng chip tối ưu hóa năng suất, và công ty dựa vào đây để tối ưu các thuật toán, nhằm theo dõi bạn có làm tốt công việc của mình hay không? Tương lai đó không hề xa vời. Peakon (một nền tảng dữ liệu nhân sự chuyên tập hợp và phân tích phản hồi từ nhân viên), đã trở thành một "phần mềm dạng dịch vụ" (software as a service) chính thức để giữ chân nhân viên. Nền tảng này tuyên bố có thể ngăn ngừa các vấn đề của nhân viên trước khi chúng xảy ra, bằng những thông tin hữu ích mà họ thu thập được. Ngày nay, chúng ta quan tâm nhiều tới việc "cân bằng cuộc sống và công việc" hay "sức khỏe tinh thần" tương đương như tối ưu năng suất - đến mức thậm chí việc ghé thăm nhà vệ sinh thường xuyên cũng có thể tiềm ẩn một vấn đề nào đó.
Hiện tại, trong các nhà kho trên toàn thế giới, những cỗ máy được cho là thông minh đang quản lý con người và chỉ khiến công việc trở nên mệt mỏi, ít thú vị và tiềm ẩn nhiều nguy hiểm hơn. Cuối năm 2019, Amazon đã áp dụng công nghệ có thể tự động sa thải những nhân viên kém năng suất nhất. Và nguy cơ này càng thể hiện rõ ràng hơn trong nền kinh tế “gig" ngày nay (trong nền kinh tế gig, mọi người thường làm việc trong những vị trí tạm thời và linh hoạt, còn các công ty có xu hướng thuê những người làm việc độc lập và tự do thay vì nhân viên toàn thời gian). Rốt cuộc, nếu thiếu các thuật toán Uber cũng không thể tồn tại được.
Trong thời gian gần đây, các bưu tá và tài xế của Uber Eats lên tiếng rằng những thay đổi đối với thuật toán là nguyên nhân khiến họ bị giảm thu nhập và thậm chí thất nghiệp. Trong nhiệm vụ không bền vững nhằm gia tăng năng suất liên tục, trí tuệ nhân tạo lại mang đến sự mất cân bằng giữa người quản lý và nhân viên. Quá chú trọng vào gia tăng năng suất chỉ mang lại sự thiếu bền vững, dẫn đến hậu quả trực tiếp là sự mất cân bằng giữa người quản lý và nhân viên.
Trong khi con người đưa ra quyết định dựa trên tính sáng tạo và tư duy của mình, trí tuệ nhân tạo lại thường quyết định mọi thứ dựa trên mục tiêu được thiết lập sẵn, dẫn đến tình trạng hiệu quả công việc thường không được tối ưu. Ví dụ, những quản lý tại một tập đoàn khách sạn tại Mỹ đã phàn nàn rằng công cụ mới giúp cải thiện việc phân chia phòng ốc cuối cùng lại khiến công việc của họ phức tạp hơn và khách hàng cũng ít hài lòng hơn. Công cụ đã tự động sắp xếp công việc hàng ngày khiến nhân viên khó có thể chủ động, linh hoạt trong việc dọn phòng của khách hàng khi khách ra ngoài. Công cụ cũng khiến họ phải đi bộ xa hơn để bao quát các tầng khách sạn, đồng nghĩa với việc đòi hỏi về thể chất nhiều hơn. Tất cả vấn đề đều diễn ra quá thường xuyên và việc lạm dụng AI đang có tác động tiêu cực đến những người lao động có thu nhập thấp.
Nhưng công nghệ không chỉ có mặt xấu. Trí tuệ nhân tạo hoàn toàn có thể mang đến sự công bằng. AI có thể được sử dụng để loại bỏ các từ về giới tính trong mô tả công việc - một điều cực kỳ quan trọng trong lĩnh vực công nghệ nơi phần lớn phụ nữ không có được nhiều cơ hội như đàn ông. Các công ty ngày nay cũng sử dụng AI để loại bỏ các yếu tố xác định dân tộc, giới tính và tôn giáo trên CV. Nói cách khác, trí tuệ nhân tạo cho phép các ứng viên có được sự so sánh bình đẳng dựa trên kinh nghiệm làm việc và loại bỏ sự thiên vị vô thức có thể len lỏi vào quá trình tuyển dụng.
Thực tế đã cho thấy những hiểu biết về tác động của thuật toán đối với thế giới công việc là rất quan trọng trong giai đoạn sơ khai. Khi AI được tận dụng để tối ưu hóa và tăng hiệu quả công việc, nó hoàn toàn có thể bỏ sót những điểm quan trọng cần suy xét như sự công bằng, bình đẳng về cơ hội sự hay sự đa dạng.
Vì vậy, chúng ta cần tính đến sự đánh đổi vô hình khi sử dụng AI, ngay cả khi nó có khả năng đẩy nhanh quy trình. Điều quan trọng là phải liên tục đánh giá hiệu quả của một thuật toán. Nếu không có vòng phản hồi, ta không biết được rằng ai hoặc cái gì đang bị loại bỏ và tác động tiêu cực nào có thể xảy ra.
Cuối cùng, vẫn như rất nhiều lời khuyên về ứng dụng công nghệ mới, dữ liệu phải được sử dụng cùng với sự giám sát của con người để không ngừng lặp lại, cải thiện và học hỏi nhiều hơn.
Nguồn: CampaignAsia.com